Neues OpenAI-Modell GPT-4o mini schickt GPT-3.5 in Rente

Mit GPT-4o stellt OpenAI ein kleines, schnelles und vor allem sehr kostengĂĽnstiges Sprachmodell vor. Es wird GPT-3.5 in ChatGPT ersetzen.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
ChatGPT-App auf einem Smartphone

(Bild: Tada Images/Shutterstock.com)

Lesezeit: 2 Min.

Als Basis für ChatGPT ist GPT-3.5 das wohl einflussreichste große Sprachmodell überhaupt. Jetzt muss es einem Nachfolger weichen, den OpenAI jetzt vorgestellt hat. GPT-4o mini ist eine kleinere Version von GPT-4o, das OpenAI im Mai veröffentlicht hat. Wie der große Bruder ist es als multimodales Modell ausgelegt, in dieser Hinsicht aber im Moment noch eingeschränkt. Über die API kann es jetzt schon grafischen Input verarbeiten. Das Generieren von Bild-, Video- und Audio-Ausgaben soll in Zukunft folgen.

GPT-4o mini ist auf Daten trainiert, die bis zum Oktober 2023 reichen. Das Kontextfenster ist zwar mit 128k Token rund achtmal so groß wie bei GPT-3.5 Turbo, liegt aber immer noch unter dem von Claude 3 Haiku, dem kleinsten Modell von Anthropic. Jedoch kann es 16 000 Ausgabetoken erzeugen, was weit mehr ist als die meisten vergleichbaren Modelle. Selbst Claude Sonnet, das in der nächsthöheren Größenklasse antritt, kommt nur auf die Hälfte. Auch bei der Ausgabegeschwindigkeit platziert sich GPT-4o mini mit 166 Token pro Sekunde ganz vorn im Feld der verbreitetsten LLMs.

Bei den von OpenAI veröffentlichten Benchmarks schiebt es sich erwartungsgemäß ebenfalls an die Spitze der kleineren Modelle wie Haiku oder Gemini Flash von Google, aber die Abstände sind nicht sonderlich groß. Wirklich punkten kann OpenAI mit seinem Preis-Leistungs-Verhältnis, zumindest derzeit. Denn Anthropic und Google haben sich beide an den Preisvorstellungen von GPT-3.5 orientiert und sind damit aktuell deutlich teurer.

Bei den gängigen KI-Benchmarks liegt GPT-4o derzeit an der Spitze der "kleinen" großen Sprachmodelle. Aber die Abstände sind nicht sonderlich groß.

(Bild: OpenAI)

Für eine Million Input-Token werden bei GPT-4o mini 15 Cent fällig, für eine Million Output-Token 60 Cent. Das sind rund 60 Prozent weniger als beim Vorgänger. Zum Vergleich: Für das große GPT-4.o verlangt OpenAI 5 US-Dollar pro Million Eingabe- und 15 Dollar pro Million Ausgabetoken. Also mehr als das Dreißigfache.

Laut OpenAI ist GTP-4o mini das erste KI-Modell des Unternehmens, das Instruction Hierarchy verwendet. Diese Technik lässt das Modell bestimmte Anweisungen gegenüber anderen priorisieren. Das soll es Nutzern erschweren, Prompt-Injection-Angriffe, Jailbreaks oder Systempromt-Extraktionen durchzuführen, die eingebaute Feinabstimmungen oder durch einen Systemprompt vorgegebene Anweisungen umgehen.

(ulw)